home *** CD-ROM | disk | FTP | other *** search
/ SuperHack / SuperHack CD.bin / CODING / MISC / NUD-0101.ZIP / NUD-0101.TXT
Encoding:
Internet Message Format  |  1992-11-29  |  15.3 KB

  1. Return-Path: @ti.com:gately@resbld.csc.ti.com 
  2. Received: from hplabs.HP.COM by hplpm.HPL.HP.COM; Fri, 12 Aug 88 15:38:49 pdt
  3. Received: from RELAY.CS.NET by hplabs.HP.COM with SMTP ; Fri, 12 Aug 88 14:37:59 PST
  4. Received: from ti.com by RELAY.CS.NET id aa01121; 9 Aug 88 14:38 EDT
  5. Received: by ti.com id AA19096; Tue, 9 Aug 88 13:05:18 CDT
  6. Message-Id: <8808091805.AA19096@ti.com>
  7. Received: by tilde id AA02901; Tue, 9 Aug 88 12:52:15 CDT
  8. Date: Mon, 1 Dec 86 12:52:15 CDT
  9. From: "Michael T. Gately" <gately%resbld.csc.ti.com@RELAY.CS.NET>
  10. To: neuron@hplabs.hp.com, gately%tilde.csc.ti.com@RELAY.CS.NET
  11. Subject: NEURON Digest V1 / #1
  12.  
  13. NEURON Digest       1 December 1986      Volume 1 - Number 1
  14.  
  15. Topics in this NEURON Digest --
  16.      Moderators comments
  17.      Excerpts from recent AILIST Digests (Thanks KEN)
  18.      Partial trip review from Fall Joint Computer Conference
  19.      Available Information
  20.  
  21. ----------------------------------------------------------------------
  22.  
  23. NEURON Digest subscribers;
  24.  
  25. Welcome.  This is the premiere edition of the NEURON Digest.  
  26. Much of what appears in this volume has been collected over the 
  27. past month from various sources.  Hopefully, each of you will 
  28. begin to send messages/notices/requests in the near future and 
  29. this digest will get off to spectacular start.  
  30.  
  31. I recieved approximately 200 responses from my mailings (US 
  32. Postal and AILIST Digest).  Many of these were re-distribution 
  33. addresses, so we can guess that the subscription to this list is 
  34. around 300.  I have "lost" at least 20 of the mail messages 
  35. (through my own fault) and hope to get re-mailings of those folks 
  36. requests.
  37.  
  38. There were quite a few comments mixed in with the requests; from 
  39. remarks aboutn the name (some liked NEURON, some didn't), to 
  40. questions regarding the operations of ARPANet (most of which I 
  41. couldn't answer).  For the most part, I choose the FROM: field 
  42. from the messages as my TO: field; even when the body of the 
  43. message read differently.  The reasoning for this is that I 
  44. figured that if the networks could get the message to me from 
  45. that address, then I could get it back the same way.  If any of 
  46. you want to change the address I have for you, or change over to 
  47. a local re-distribution system, simply send a note to me at
  48. NEURON-REQUEST.  Hopefully, over the next couple of months, I can 
  49. learn enough about the networks to be able to "read" an address 
  50. accurately.
  51.  
  52. Well, keep those card and letters coming.  I will send out a 
  53. Digest as soon as enough (?) information comes in!
  54.  
  55. Regards,
  56. Michael T. Gately
  57.  
  58. p.s. One comment I received mentioned that the address:
  59. NEURON%TI-CSL.CSNET@CSNET-RELAY.ARPA would work just as well as 
  60. the one I originally sent out, and is shorter.  However, as I 
  61. mentioned, I trust the FROM: field the most.
  62.  
  63. ------------------------------
  64.  
  65. [These are excerpts from AILIST Digest V4 #240. - MG]
  66.  
  67.  
  68. Date: 28 Oct 86 21:05:49 GMT
  69. From: uwslh!lishka@rsch.wisc.edu  (a)
  70. Subject: Re: simulating a neural network
  71.  
  72.  
  73.         I just read an interesting short blurb in the most recent BYTE issue
  74. (the one with the graphics board on the cover)...it was in Bytelines or
  75. something.  Now, since I skimmed it, my info is probably a little sketchy,
  76. but here's about what it said:
  77.  
  78.         Apparently Bell Labs (I think) has been experimenting with neural
  79. network-like chips, with resistors replacing bytes (I guess).  They started
  80. out with about 22 'neurons' and have gotten up to 256 or 512 (can't
  81. remember which) 'neurons' on one chip now.  Apparently these 'neurons' are
  82. supposed to run much faster than human neurons...it'll be interesting to see
  83. how all this works out in the end.
  84.  
  85.         I figured that anyone interested in the neural network program might
  86. be interested in the article...check Byte for actual info.  Also, if anyone
  87. knows more about this experiment, I would be interested, so please mail me
  88. any information at the below address.
  89.  
  90. --
  91. Chris Lishka                   /l  lishka@uwslh.uucp
  92. Wisconsin State Lab of Hygiene -lishka%uwslh.uucp@rsch.wisc.edu
  93.                                \{seismo, harvard,topaz,...}!uwvax!uwslh!lishka
  94.  
  95. ------------------------------
  96.  
  97. Date: 27 Oct 86 19:50:58 GMT
  98. From: yippee.dec.com!glantz@decwrl.dec.com
  99. Subject: Re: Simulating neural networks
  100.  
  101. *********************
  102.  
  103. Another good reference is:
  104.  
  105. Martin, R., Lukton, A. and Salthe, S.N., "Simulation of
  106. Cognitive Maps, Concept Hierarchies, Learning by Simile, and
  107. Similarity Assessment in Homogeneous Neural Nets," Proceedings
  108. of the 1984 Summer Computer Simulation Conference, Society for
  109. Computer Simulation, vol. 2, 808-821.
  110.  
  111. In this paper, Martin discusses (among other things) simulating
  112. the effects of neurotransmittors and inhibitors, which can have
  113. the result of generating goal-seeking behavior, which is closely
  114. linked to the ability to learn.
  115.  
  116.         Mike Glantz
  117.         Digital Equipment Centre Technique Europe
  118.         BP 29 Sophia Antipolis
  119.         06561 Valbonne CEDEX
  120.         France
  121.  
  122. My employer is not aware of this message.
  123.  
  124. *********************
  125.  
  126. ------------------------------
  127.  
  128. Date: 27 Oct 86 17:36:23 GMT
  129. From: zeus!berke@locus.ucla.edu  (Peter Berke)
  130. Subject: Glib "computation"
  131.  
  132. In article <1249@megaron.UUCP> wendt@megaron.UUCP writes:
  133. >Anyone interested in neural modelling should know about the Parallel
  134. >Distributed Processing pair of books from MIT Press.  They're
  135. >expensive (around $60 for the pair) but very good and quite recent.
  136. >
  137. >A quote:
  138. >
  139. >Relaxation is the dominant mode of computation.  Although there
  140. >is no specific piece of neuroscience which compels the view that
  141. >brain-style computation involves relaxation, all of the features
  142. >we have just discussed have led us to believe that the primary
  143. >mode of computation in the brain is best understood as a kind of
  144. >relaxation system in which the computation proceeds by iteratively
  145. >seeking to satisfy a large number of weak constraints.  Thus,
  146. >rather than playing the role of wires in an electric circuit, we
  147. >see the connections as representing constraints on the co-occurrence
  148. >of pairs of units.  The system should be thought of more as "settling
  149. >into a solution" than "calculating a solution".  Again, this is an
  150. >important perspective change which comes out of an interaction of
  151. >our understanding of how the brain must work and what kinds of processes
  152. >seem to be required to account for desired behavior.
  153. >
  154. >(Rumelhart & Mcclelland, Chapter 4)
  155. >
  156.  
  157. Isn't 'computation' a technical term?  Do R&Mc prove that PDP is
  158. equivalent to computation?  Would Turing agree that "settling into
  159. a solution" is computation?  Some people have tried to show that
  160. symbols and symbol processing can be represented in neural nets,
  161. but I don't think anyone has proved anything about the problems
  162. they purportedly "solve," at least not to the extent that Turing
  163. did for computers in 1936, or Church in the same year for lambda
  164. calculus.
  165.  
  166. Or are R&Mc using 'computing' to mean 'any sort of machination whatever'?
  167. And is that a good idea?
  168.  
  169. Church's Thesis, that computing and lambda-conversion (or whatever he
  170. calls it) are both equivalent to what we might naturally consider
  171. calcuable could be extended to say that neural nets "settle" into
  172. the same solutions for the same class of problems.  Or, one could
  173. maintain, as neural netters tend to implicitly, that "settling" into
  174. solutions IS what we might naturally consider calculable, rather than
  175. being merely equivalent to it.  These are different options.
  176.  
  177. The first adds "neural nets" to the class of formalisms which can
  178. express solutions equivalent to each other in "power," and is thus
  179. a variant on Church's thesis.  The second actually refutes Church's
  180. Thesis, by saying this "settling" process is clearly defined and
  181. that it can realize a different (or non-comparable) class of problems,
  182. in which case computation would not be (provably) equivalent to it.
  183.  
  184. Of course, if we could show BOTH that:
  185. (1) "settling" is equivalent to "computing" as formally defined by Turing,
  186. and (2) that "settling" IS how brains work,
  187. then we'd have a PROOF of Church's Thesis.
  188.  
  189. Until that point it seems a bit misleading or misled to refer to
  190. "settling" as "computation."
  191.  
  192. Peter Berke
  193.  
  194. ------------------------------
  195.  
  196. [The following are excerpts from the AILIST Digest V4 #257 - MG]
  197.  
  198.  
  199. Date: 4 Nov 86 11:25:18 GMT
  200. From: mcvax!ukc!dcl-cs!strath-cs!jrm@seismo.css.gov  (Jon R Malone)
  201. Subject: Request for information (Brain/Parallel fibers)
  202.  
  203. <<<<Lion eaters beware>>>>
  204. Nice guy, into brains would like to meet similiarly minded people.
  205. Seriously : considering some simulation of neural circuits.  Would
  206. like pointers to any REAL work that is going on (PS I have read the
  207. literature).
  208. Keen to run into somebody that is interested in simulation at a low-level.
  209. Specifically:
  210.         * mossy fibers/basket cells/purkyne cells
  211.         * need to find out parallel fiber details:
  212.           * length of
  213.           * source of/destination of
  214.  
  215. Any pointers or info would be appreciated.
  216.  
  217. ------------------------------
  218.  
  219. Date: 4 Nov 86 18:40:15 GMT
  220. From: mcvax!ukc!stc!datlog!torch!paul@seismo.css.gov  (paul)
  221. Subject: Re: THINKING COMPUTERS ARE A REALITY (?)
  222.  
  223. People who read the original posting in net.general (and the posting about
  224. neural networks in this newsgroup) may be interested in the following papers:
  225.  
  226. Boltzmann Machines: Constraint Satisfaction Networks that Learn.
  227. by Geoffrey E. Hinton, Terrence J. Sejnowski and David H. Ackley
  228. Technical Report CMU-CS-84-119
  229. (Carnegie-Mellon University May 1984)
  230.  
  231. Optimisation by Simulated Annealing
  232. by S. Krikpatrick, C.D.Gelatt Jr., M.P.Vecchi
  233. Science Vol. 220 No. 4598 (13th May 1983).
  234.  
  235. ...in addition to those recommended by Jonathan Marshall.
  236.  
  237. Personally I regard this type of machine learning as something of a holy grail.
  238. In my opinion (and I stress that it IS my own opinion) this is THE way to
  239. get machines that are both massively parallel and capable of complex tasks
  240. without having a programmer who understands the in's and out's of the task
  241. to be accomplished and who is prepared to spend the time to hand code (or
  242. design) the machine necessary to do it. The only reservation I have is whether
  243. or not the basic theory behind Boltzmann machines is good enough.
  244.  
  245.                         Paul.
  246.  
  247. ------------------------------
  248.  
  249. From:    NGSTL1::JIMCL        "VMS -- Love it or Leave it" 12-NOV-1986 07:39
  250. To:    CRL1::GATELY,JIMCL       
  251. Subj:    RE: @ai >> FJCC Trip Report now available free of charge
  252.  
  253. [The following is a segment of a trip report on the Fall Joint 
  254. Computer Conference.  MG]
  255.  
  256.     
  257.             Un-Trip Report -- Fall Joint Computer Conference 1986
  258.     
  259.                        INFOMART, Dallas    November 2-6
  260.     
  261.                               Jim Carlsen-Landy
  262.  
  263.     
  264.     Critic's Choice Awards
  265.     ----------------------
  266.     Best Word: "hopeware" -- software that would be great if only it 
  267.       were actually implemented (courtesy of Gary Cottrell, UC Berkeley;
  268.       used to describe his parallel distributed processing approach to
  269.       natural language processing)
  270.     
  271.     Best Quote: "FORTRAN is an insult to the term language." -- Dr. Wilson,
  272.       in the Plenary Address on Nov. 5
  273.  
  274.     Second Best Quote: "People are smarter ... because they have brains."
  275.       -- Gary Cottrell (again)
  276.     
  277.    
  278.    Technical Session Reviews
  279.    -------------------------
  280.  
  281.           "Connectionist Approaches to Natural Language Processing"
  282.     
  283.         Gary Cottrell, U. Cal. San Diego, Cognitive Science Institute
  284.  
  285.         
  286.     Natural Language Track, "Text Processing"
  287.       Session Chair: Richard Granger, Univ. of California at Irvine
  288.  
  289.     Session 2, Day 1, fourth speaker
  290.  
  291.     Impressions: absolutely wonderful, saved the whole session; good (though
  292.       unplanned) intro to parallel distributed processing
  293.  
  294.  
  295.     1. Parallel distributed processors
  296.        
  297.        a. Networks of simple modules
  298.        
  299.        b. High degree of connectivity - weighted links
  300.        
  301.        c. Only activations can cross links
  302.        
  303.        d. No interpretation is done
  304.           -- all units compute activation internally based on their inputs
  305.           -- "solution" is stable network state
  306.        
  307.        e. Knowledge is encoded in connections
  308.           -- units represent hypotheses
  309.           -- connections encode constraints between hypotheses
  310.           -- the network "relaxes" to a stable state
  311.           -- performs parallel constraint satisfaction
  312.        
  313.        
  314.     2. PDP in natural language processing
  315.        
  316.        a. Connectionist parsing
  317.        
  318.                    syntax ======== semantics
  319.                          \          /
  320.                           \        /
  321.                           word-sense
  322.                               |
  323.                            lexical
  324.        
  325.        b. Word-sense ambiguity resolved by PDP relaxation
  326.           -- related meanings of words in sentence "vote" for each other
  327.           -- many small aspects of phrase will coalesce into a larger
  328.              symbol (meaning)
  329.        
  330.        c. PDP demonstrates human-like behavior with regard to NL processing
  331.                            
  332.        d. Can perform multiple constraint relaxation
  333.        
  334.        e. Can represent meaning effectively
  335.           -- shades of meaning
  336.           -- smoothly varying constraints
  337.           -- filling in default values (extreme ellipsis)
  338.        
  339.        f. Demonstrates rule-like behavior without entering rules
  340.     
  341.     3. Parting comments
  342.        
  343.        a. Buy the "Parallel Distributed Processing" book (MIT Press)
  344.        
  345.        b. All of the above is still in the "hopeware" stage (i.e. it
  346.           sounds great, but nobody's actually tried it yet)
  347.  
  348.  
  349.  
  350.     No corresponding paper in Proceedings.
  351. What I left out of the notes was an interesting example of how a connectionist
  352. system, given the results of people's feelings about what kind of furniture
  353. belonged in different kinds of rooms (e.g. a bathtub has a high incidence
  354. in bathrooms), was able to build a complete room given one or two items
  355. of furniture.  The interesting thing was that when they gave it conflicting
  356. initial information (e.g. a room with a bathtub and a TV), it made up a
  357. new kind of room, and filled in the furniture it "thought" should be in
  358. it.  Fun stuff.
  359.  
  360. There are also some notes available about his work, in TROFF (UNIX) format,
  361. that you can get from him directly.   His email address is:
  362.     
  363.      cottrell@nprdc.arpa
  364.  
  365.  
  366.                                       Enjoy
  367.                                       Jim C-L
  368.  
  369. ------------------------------
  370. From:    WATROUS%ENIAC.SEAS.UPENN.EDU%LINC.CIS.UPENN.EDU@CSNET-RELAY.ARPA
  371. To:    NEURON@TI-CSL
  372. Subj:    NEURON Digest
  373.  
  374.     I recently completed a Technical Report entitled
  375.     "Learning Phonetic Features Using Connectionist Networks: An
  376.     Experiment in Speech Recognition" which will be of interest
  377.     to some of the subscribers to the digest. It is available as
  378.     MS-CIS-86-78 from the University of Pennsylvania. Dr. Lokendra
  379.     Shastri is the co-author.
  380.  
  381.  
  382.     Here is the mail address I use for my location at Siemens,
  383.  
  384.         princeton\!siemens\!rlw.uucp@CSNET-Relay
  385.  
  386.     You probably already know about the connectionist mailing
  387.     list maintained by D. Touretzky at CMU: the contact address is
  388.  
  389.         Connectionists-Request @ C.CS.CMU.EDU
  390.  
  391.  
  392.  
  393.     Cheers,
  394.  
  395.                     Ray Watrous
  396.  
  397. *****************
  398. END NEURON DIGEST
  399.